home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1994 March / Internet Info CD-ROM (Walnut Creek) (March 1994).iso / standards / CCITT / 1992 / X / x290_1.asc < prev    next >
Encoding:
Text File  |  1993-07-15  |  59.7 KB  |  1,879 lines

  1.  
  2.  
  3.  
  4.                                - 1 -
  5.                             AP IX-43-E
  6.  
  7.  
  8. Recommendation X.290
  9.  
  10.         OSI CONFORMANCE TESTING METHODOLOGY AND FRAMEWORK
  11.        FOR PROTOCOL RECOMMENDATIONS FOR CCITT APPLICATIONS
  12.  
  13.  
  14.        The CCITT,
  15.  
  16.  
  17. considering
  18.  
  19.        (a)  that Recommendation X.200 defines the Reference Model of Open Systems 
  20. for CCITT Applications;
  21.  
  22.        (b)  that the objective of OSI will not be completely achieved until systems 
  23. dedicated to CCITT applications can be tested to determine whether they conform to 
  24. the relevant OSI protocol Recommendations;
  25.  
  26.        (c)  that standardized test suites should be developed for each OSI protocol 
  27. Recommendation as a means to:
  28.  
  29.        -    obtain wide acceptance and confidence in conformance  test  results
  30.             produced by different testers,
  31.  
  32.        -    provide confidence in the interoperability of  equipments  which
  33.             passed the standardized conformance tests;
  34.  
  35.        (d)  the need for defining an international Recommendation  to  specify  the
  36. framework and general principles for the specification of conformance test suites and 
  37. the testing of protocol implementations,
  38.  
  39.        unanimously declares the view that
  40.  
  41. 1.     the general principles, definition of terms and  concepts  of  OSI  protocol
  42. conformance testing shall be in accordance with Part 1 of this Recommendation;
  43.  
  44. 2.     the test methods, test suites, test notation shall be in accordance with Part 2 
  45. of this Recommendation.
  46.  
  47.  
  48.  
  49.                                      CONTENTS
  50.  
  51. PART 1 - GENERAL CONCEPTS
  52.  
  53. 0.   Introduction
  54.  
  55. 1.   Scope and Field of Application
  56.  
  57. 2.   References
  58.  
  59. Section 1: Terminology
  60.  
  61. 3.   Definitions
  62.  
  63.  
  64.  
  65.  
  66. (3184)
  67.  
  68.  
  69.  
  70.  
  71.  
  72.  
  73.  
  74.  
  75.                                - 2 -
  76.                             AP IX-43-E
  77.  
  78.  
  79. 4.   Abbreviations
  80.  
  81. Section 2: Overview
  82.  
  83. 5.   The Meaning of Conformance in OSI*
  84.  
  85. 6.   Conformance and testing
  86.  
  87. 7.   Test Methods
  88.  
  89. 8.   Test Suites
  90.  
  91. 9.   Relationships between Parts, Concepts and Roles
  92.  
  93. 10.  Compliance
  94.  
  95. PART 2 - ABSTRACT TEST SUITE SPECIFICATION
  96.  
  97. 0.   Introduction
  98.  
  99. 1.   Scope and Field of Application
  100.  
  101. 2.   References
  102.  
  103. 3.   Definitions
  104.  
  105. 4.   Abbreviations
  106.  
  107. 5.   Compliance
  108.  
  109. Section 1: Requirements on Protocol Specifiers
  110.  
  111. 6.   Conformance Requirements in OSI* Recommendations*
  112.  
  113. 7.   PICS Proformas
  114.  
  115. Section 2: Requirements on Abstract Test Suite Specifiers
  116.  
  117. 8.   Test Suite Production Process
  118.  
  119. 9.   Determining Conformance Requirements and PICS
  120.  
  121. 10.  Test Suite Structure
  122.  
  123. 11.  Generic Test Case Specification
  124.  
  125. 12.  Abstract Test Methods
  126.  
  127. 13.  Specification of Abstract Test Suites
  128.  
  129. 14.  Use of an Abstract Test Suite Specification
  130.  
  131. 15.  Test Suite Maintenance
  132.  
  133. Annex A: Options
  134.  
  135.  
  136.  
  137. (3184)
  138.  
  139.  
  140.  
  141.  
  142.  
  143.                                - 3 -
  144.                             AP IX-43-E
  145.  
  146.  
  147.  
  148. Annex B: Guidance for Protocol Recommendations* writers
  149.  
  150. Annex C: Incomplete Static Conformance Requirements
  151.  
  152. Annex D: Tree and Tabular Combined Notation
  153.  
  154. Appendix I: Applicability of the Test Methods to OSI* Protocols
  155.  
  156. Appendix II: Index to Definitions of Terms
  157.  
  158. Appendix III: Examples for guidance for PICS proforma
  159.  
  160. Appendix IV: Example of choice of Abstract Test Methods
  161.  
  162.  
  163.  
  164.  
  165.  
  166.  
  167.  
  168.  
  169.  
  170.  
  171.  
  172.  
  173.  
  174.  
  175.  
  176.  
  177.  
  178.  
  179.  
  180.  
  181.  
  182.  
  183.  
  184.  
  185.  
  186.  
  187.  
  188.  
  189.  
  190.  
  191.  
  192.  
  193.  
  194.  
  195.  
  196.  
  197.  
  198.  
  199.  
  200.  
  201.  
  202.  
  203.  
  204.  
  205. (3184)
  206.  
  207.  
  208.  
  209.  
  210.  
  211.  
  212.  
  213.  
  214.                                - 4 -
  215.                             AP IX-43-E
  216.  
  217.  
  218. PART 1: GENERAL CONCEPTS
  219.  
  220. Introduction
  221.  
  222.        The objective of OSI will not be completely achieved until systems can be tested 
  223. to determine whether they conform to the relevant "OSI or related CCITT X-Series or T- 
  224. Series" (hereafter abbreviated to "OSI*") protocol "standard(s) or Recommendation(s)" 
  225. (hereafter abbreviated to "Recommendation(s)*").
  226.  
  227.        Standardized  test  suites  should  be  developed  for  each  OSI*  protocol
  228. Recommendation, for use by suppliers or implementors in self-testing, by users of OSI 
  229. products, by the administrations* or other third party testers. This should lead to 
  230. comparability and wide acceptance of test results produced by different testers, and 
  231. thereby minimize the need for repeated conformance testing of the same system.
  232.  
  233.        The standardization of test suites  requires  international  definition  and
  234. acceptance of a common testing methodology  and  appropriate  testing  methods  and
  235. procedures. It is the purpose of this Recommendation to define the methodology,  to
  236. provide a framework for specifying conformance test suites and define the procedures to 
  237. be followed during testing.
  238.        Conformance testing involves testing both the capabilities and behaviour of an 
  239. implementation and checking what is observed against the conformance requirements in 
  240. the relevant  Recommendation(s)*  and  against  what  the  implementor  states  the
  241. implementation's capabilities are.
  242.  
  243.        Conformance testing does not include assessment of the performance  nor  the
  244. robustness or reliability of an implementation. It cannot give  judgements  on  the
  245. physical realization of the abstract service primitives, how a system is implemented, 
  246. how it provides  any  requested  service,  nor  the  environment  of  the  protocol
  247. implementation. It cannot, except in an indirect way, prove anything about the logical 
  248. design of the protocol itself.
  249.  
  250.        The purpose of conformance testing is to increase the probability that different 
  251. implementations are able to interwork. This is achieved by verifying them by means of a 
  252. protocol test suite, thereby increasing the  confidence  that  each  implementation
  253. conforms to the protocol specification. Confidence in  conformance  to  a  protocol
  254. specification is particularly important when equipment supplied by different vendors is 
  255. required to interwork.
  256.  
  257.        However, it should be borne in mind that the complexity of most protocols makes 
  258. exhaustive testing impractical on both technical and economic grounds. Also, testing 
  259. cannot guarantee conformance to a specification since it detects errors rather than 
  260. their absence. Thus conformance to a test suite alone cannot guarantee interworking. 
  261. What it does do is give confidence that an implementation has the required capabilities 
  262. and that  its  behaviour  conforms  consistently  in  representative  instances  of
  263. communication.
  264.  
  265.        It should be noted that the  OSI  reference  model  for  CCITT  applications
  266. (Recommendation X-200) states (in section 4.3):
  267.  
  268.        "Only the external behaviour of Open Systems is retained as the standard  of
  269. behaviour of real Open Systems".
  270.  
  271.        This means that although aspects of both internal and external behaviour are 
  272. described in OSI* Recommendations*, only the requirements on external behaviour have to 
  273.  
  274.  
  275.  
  276. (3184)
  277.  
  278.  
  279.  
  280.  
  281.  
  282.                                - 5 -
  283.                             AP IX-43-E
  284.  
  285.  
  286. be met by real  open  systems.  Although  some  of  the  methods  defined  in  this
  287. Recommendation do impose certain constraints on the implementor, for example that there 
  288. be some means of realizing control and observation at one or  more  service  access
  289. points, it should be noted that other methods defined herein  do  not  impose  such
  290. constraints.
  291.  
  292.        However, in the case of partial OSI* end-systems which provide OSI* protocols up 
  293. to a specific layer boundary, it is desirable to test both the external behaviour of 
  294. the implemented protocol entities and the potential of those entities for supporting 
  295. correct external behaviour in higher layers.
  296.  
  297.        Detailed investigation of relative benefits, efficiency and constraints of all 
  298. methods is addressed in various parts of this Recommendation. However, any organization 
  299. contemplating the use of test methods defined in this Recommendation in a context such 
  300. as certification should carefully consider the constraints on applicability and the 
  301. benefits of the different possible test methods.
  302.  
  303.        Testing is voluntary as far as ISO/CCITT is concerned. Requirements for testing 
  304. in procurement and other external contracts are not a matter for standardization.
  305.  
  306. 1.     Scope and field of application
  307.  
  308. 1.1    This Recommendation specifies a general methodology for testing the conformance 
  309. to OSI* protocol Recommendation(s)* of products in which the Recommendation(s)* are 
  310. claimed to be implemented. The methodology also applies to testing  conformance  to
  311. transfer syntax Recommendation(s)* to the extent that can be determined by testing each 
  312. in combination with a specific OSI* protocol.
  313.  
  314. 1.2    This Recommendation is structured into two separate parts:
  315.  
  316.        Part 1 identifies the different phases of conformance testing process, these 
  317. phases being characterized by four major roles. These roles are:
  318.  
  319.        a)   the specification of abstract test suites for particular OSI* protocols;
  320.  
  321.        b)   the derivation of executable test suites and associated testing tools;
  322.  
  323.        c)   the role of a client of a test laboratory, having an implementation  of
  324.             OSI* protocols to be tested;
  325.  
  326.        d)   the operation of conformance testing, culminating in the production of a 
  327.             conformance test report  which  gives  the  results  in  terms  of  the
  328.             Recommendation(s)* and the test suite(s) used.
  329.  
  330.        Additionally, this Part provides tutorial material, together with definition of 
  331. concepts and terms.
  332.  
  333.        Part 2 defines the requirements and guidance for the specification of abstract 
  334. test suites for OSI* protocols.
  335.  
  336. 1.3    In both parts of this Recommendation, the scope is limited to include only such 
  337. information as is necessary to meet the following objectives:
  338.  
  339.        a)   to achieve an adequate level of confidence in the tests as a  guide  to
  340.             conformance;
  341.  
  342.  
  343.  
  344. (3184)
  345.  
  346.  
  347.  
  348.  
  349.  
  350.  
  351.  
  352.  
  353.                                - 6 -
  354.                             AP IX-43-E
  355.  
  356.  
  357.  
  358.        b)   to achieve comparability between the results of the corresponding tests 
  359.             applied in different places at different times;
  360.  
  361.        c)   to facilitate communication between the parties responsible for the roles 
  362.             described above.
  363.  
  364. 1.4    One such aspect of this scope involves the framework for development of OSI* 
  365. test suites. For example:
  366.  
  367.        a)   how they should relate to the various types of conformance requirement;
  368.  
  369.        b)   the types of  test  to  be  standardized  and  the  types  not  needing
  370.             standardization;
  371.  
  372.        c)   the criteria for selecting tests for inclusion in  a  conformance  test
  373.             suite;
  374.  
  375.        d)   the notation to be used for defining tests;
  376.  
  377.        e)   the structure of a test suite.
  378.  
  379. 1.5    Certification, an administrative procedure which may follow conformance testing, 
  380. is outside the scope of this Recommendation. Requirements for procurement and contracts 
  381. are also outside the scope of this Recommendation.
  382.  
  383. 1.6    The Physical layer and Media Access Control protocols are outside the field of 
  384. application of this Recommendation.
  385.  
  386. 2.     References
  387.  
  388.        Recommendation X.200, Reference Model of Open Systems Interconnection for CCITT 
  389. Applications. (See also ISO 7498)
  390.  
  391.        Recommendation X.210, Open Systems Interconnection Layer Service  Definition
  392. Conventions. (See also ISO TR 8509)
  393.  
  394.        Recommendation X.209, Specification of Basic Encoding Rules for Abstract Syntax 
  395. Notation One (ASN.1). (See also ISO 8825)
  396.  
  397. Section 1: Terminology
  398.  
  399. 3.     Definitions
  400.  
  401. 3.1    Reference model definitions
  402.  
  403.        This Recommendation is based upon the concepts developed in Reference Model of 
  404. Open Systems Interconnection for CCITT Applications (CCITT X.200), and makes use of the 
  405. following terms defined in that Recommendation:
  406.  
  407.        a)   (N)-entity
  408.             b)   (N)-service
  409.  
  410.        c)   (N)-layer
  411.  
  412.  
  413.  
  414.  
  415. (3184)
  416.  
  417.  
  418.  
  419.  
  420.  
  421.                                - 7 -
  422.                             AP IX-43-E
  423.  
  424.  
  425.        d)   (N)-protocol
  426.  
  427.        e)   (N)-service-access-point
  428.  
  429.        f)   (N)-relay
  430.  
  431.        g)   (N)-protocol-data-unit
  432.  
  433.        h)   (N)-protocol-control-information
  434.  
  435.        i)   (N)-user-data
  436.  
  437.        j)   real open system
  438.  
  439.        k)   subnetwork
  440.  
  441.        l)   application-entity
  442.  
  443.        m)   application-service-element
  444.  
  445.        n)   transfer syntax
  446.  
  447.        o)   Physical layer
  448.  
  449.        p)   Data link layer
  450.  
  451.        q)   Network layer
  452.  
  453.        r)   Transport layer
  454.             s)   Session layer
  455.  
  456.        t)   Presentation layer
  457.  
  458.        u)   Application layer
  459.  
  460.        v)   systems-management
  461.  
  462.        w)   application-management
  463.  
  464.        x)   layer-management
  465.  
  466. 3.2    Terms defined in other Recommendations
  467.  
  468.        This Recommendation uses the following terms  defined  in  the  OSI  Service
  469. Conventions (Recommendation X.210):
  470.  
  471.        a)   service-user
  472.  
  473.        b)   service-provider
  474.  
  475.        This Recommendation uses the following term defined in  the  ASN.1  -  Basic
  476. Encoding Rules Recommendation (Recommendation X.209):
  477.  
  478.        c)   encoding
  479.  
  480.  
  481.  
  482.  
  483. (3184)
  484.  
  485.  
  486.  
  487.  
  488.  
  489.  
  490.  
  491.  
  492.                                - 8 -
  493.                             AP IX-43-E
  494.  
  495.  
  496. 3.3    Conformance testing definitions
  497.  
  498.        For the purpose of this Recommendation the definitions in 3.4 to 3.8 apply.
  499.  
  500. 3.4    Basic terms
  501.  
  502. 3.4.1  Implementation under test (IUT) 
  503.  
  504.        That part of a real open system which is to be studied by testing, which should 
  505. be an implementation of one or more OSI* protocols  in  an  adjacent  user/provider
  506. relationship.
  507.  
  508. 3.4.2  System under test (SUT) 
  509.  
  510.        The real open system in which the IUT resides.
  511.  
  512. 3.4.3  Dynamic conformance requirements 
  513.  
  514. All those requirements (and options) which determine what observable  behaviour  is
  515. permitted by the relevant OSI* Recommendation(s)* in instances of communication.
  516.  
  517. 3.4.4  Static conformance requirements 
  518.  
  519.        Constraints which are placed in OSI* Recommendations* to facilitate interworking 
  520. by defining the requirements for the capabilities of an implementation.
  521.  
  522. Note - Static conformance requirements may be at a broad level, such as the grouping of 
  523. functional units and options into protocol classes, or at a detailed level, such as the 
  524. ranges of values that are to be supported for specific parameters or timers.
  525.  
  526. 3.4.5  Capabilities of an IUT 
  527.  
  528.        That set of functions and  options  in  the  relevant  protocol(s)  and,  if
  529. appropriate, that set of facilities and options of the relevant service  definition
  530. which are supported by the IUT.
  531.  
  532. 3.4.6  Protocol implementation conformance statement (PICS) 
  533.  
  534.        A statement made by the supplier of an OSI* implementation or system, stating 
  535. the capabilities and options which have been implemented, and any features which have 
  536. been omitted.
  537.  
  538. 3.4.7  PICS proforma 
  539.  
  540.        A document, in the form of a questionnaire, designed by the protocol specifier 
  541. or conformance test suite specifier, which when completed for an OSI* implementation or 
  542. system becomes the PICS.
  543.  
  544. 3.4.8  Protocol implementation extra information for testing (PIXIT) 
  545.  
  546.        A statement made by a supplier or implementor of an IUT  which  contains  or
  547. references all of the information (in addition to that given in the PICS)  related to 
  548. the IUT and its testing environment, which will enable the test laboratory to run the 
  549. appropriate test suite against the IUT.
  550.  
  551.  
  552.  
  553.  
  554. (3184)
  555.  
  556.  
  557.  
  558.  
  559.  
  560.                                - 9 -
  561.                             AP IX-43-E
  562.  
  563.  
  564. 3.4.9  PIXIT proforma 
  565.  
  566.        A document, in the form of a questionnaire, provided by the test laboratory, 
  567. which when completed during the preparation for testing becomes a PIXIT.
  568.  
  569. 3.4.10 Conforming implementation 
  570.  
  571.        An IUT which is  shown  to  satisfy  both  static  and  dynamic  conformance
  572. requirements, consistent with the capabilities stated in the PICS.
  573.  
  574. 3.4.11 System conformance statement 
  575.  
  576.        A document summarizing which OSI* Recommendations* are implemented and to which 
  577. conformance is claimed.
  578.  
  579. 3.4.12 Client 
  580.  
  581.        The organization that submits a system  or  implementation  for  conformance
  582. testing.
  583.  
  584. 3.4.13 Test laboratory 
  585.  
  586.        An organization that carries out conformance testing.  This can be  a  third
  587. party, a user organization, an administration*, or an identifiable part of the supplier 
  588. organization.
  589.  
  590. 3.5    Types of testing
  591.  
  592. 3.5.1  Active testing 
  593.  
  594.        The application of a test suite to a SUT, under controlled conditions, with the 
  595. intention of observing the consequent actions of the IUT.
  596.  
  597. 3.5.2  Passive testing 
  598.  
  599.        The observation of PDU activity on a link, and checking whether or  not  the
  600. observed behaviour is allowed by the relevant Recommendation(s)*.
  601.  
  602. 3.5.3  Multi-layer testing 
  603.  
  604.        Testing the behaviour of a multi-layer IUT as a whole, rather than testing it 
  605. layer by layer.
  606.  
  607. 3.5.4  Embedded testing 
  608.  
  609.        Testing the behaviour of a single layer within  a  multi-layer  IUT  without
  610. accessing the layer boundaries for that layer within the IUT.
  611.  
  612. 3.5.5  Basic interconnection testing 
  613.  
  614.        Limited testing of an IUT to determine whether or not  there  is  sufficient
  615. conformance to the main features of the relevant protocol(s) for interconnection to be 
  616. possible, without trying to perform thorough testing.
  617.  
  618. 3.5.6  Capability testing 
  619.  
  620.  
  621.  
  622. (3184)
  623.  
  624.  
  625.  
  626.  
  627.  
  628.  
  629.  
  630.  
  631.                                - 10 -
  632.                             AP IX-43-E
  633.  
  634.  
  635.  
  636.        Testing to determine the capabilities of an IUT.
  637.  
  638. Note - This involves checking all mandatory capabilities and those optional ones that 
  639. are stated in the PICS as being supported, but not checking those optional ones which 
  640. are stated in the PICS as not supported by the IUT.
  641.  
  642. 3.5.7  Static conformance review 
  643.  
  644.        A review of the extent to which the static conformance requirements are met by 
  645. the IUT, by comparing the static conformance requirements expressed in the relevant 
  646. Recommendation(s)* with the PICS and the results of any associated capability testing.
  647.  
  648. 3.5.8  Behaviour testing 
  649.  
  650.        Testing the extent to which the dynamic conformance requirements are met by the 
  651. IUT.
  652.  
  653. 3.5.9  Conformance testing 
  654.  
  655.        Testing the extent to which an IUT is a conforming implementation.
  656.  
  657. 3.5.10 Conformance assessment process 
  658.  
  659.        The complete process of accomplishing  all  conformance  testing  activities
  660. necessary to enable the conformance of an implementation or a system to one or more 
  661. OSI* Recommendations* to be assessed.  It includes the production of the PICS and PIXIT 
  662. documents, preparation of the real tester and the SUT, the execution of one or more 
  663. test suites, the analysis of the results and the production of the appropriate system 
  664. and protocol conformance test reports.
  665.  
  666. 3.6    Terminology of test suites
  667.  
  668. 3.6.1  Abstract test method
  669.  
  670.        The description of how an IUT is to be tested, given at an appropriate level of 
  671. abstraction to make the description independent of any particular implementation of 
  672. testing tools, but with enough detail to enable tests to be specified for this method.
  673.  
  674. 3.6.2  Abstract testing methodology
  675.  
  676.        An approach to describing and categorizing abstract test methods.
  677.  
  678. 3.6.3  Abstract test case
  679.  
  680.        A complete and independent specification of the actions required to achieve a 
  681. specific test purpose, defined at the level of abstraction of a particular abstract 
  682. test method. It includes a preamble and a postamble to ensure starting and ending in a 
  683. stable state (i.e., a state which can be maintained almost indefinitely, such as the 
  684. "idle" state or "data transfer" state) and involves  one  or  more  consecutive  or
  685. concurrent connections.
  686.  
  687. Note 1 - The specification should be complete in the sense that it is sufficient to 
  688. enable a verdict to be assigned unambiguously to each potentially observable outcome 
  689. (i.e., sequence of test events).
  690.  
  691.  
  692.  
  693. (3184)
  694.  
  695.  
  696.  
  697.  
  698.  
  699.                                - 11 -
  700.                             AP IX-43-E
  701.  
  702.  
  703.  
  704. Note 2 - The specification should be independent in the sense  that  it  should  be
  705. possible to execute the derived executable test case in isolation from other such test 
  706. cases (i.e., the specification should always include the possibility of starting and 
  707. finishing in the "idle" state - that is without  any  existing  connections  except
  708. permanent ones). For some test cases, there may be pre- requisites in the sense that 
  709. execution might require some specific capabilities of the IUT, which should have been 
  710. confirmed by results of the test cases executed earlier.
  711.  
  712. 3.6.4  Executable test case
  713.  
  714.        A realization of an abstract test case.
  715.  
  716. Note - In general the use of the word "test" will imply its normal English meaning. 
  717. Sometimes it may be used as an abbreviation for abstract test case or executable test 
  718. case. The context should make the meaning clear.
  719.  
  720. 3.6.5  Test purpose
  721.  
  722.        A description of the objective which an abstract test case  is  designed  to
  723. achieve.
  724.  
  725. 3.6.6  Generic test case
  726.  
  727.        A specification of the actions required to achieve a specific test  purpose,
  728. defined by a test body together with a description of the initial state in which the 
  729. test body is to start.
  730.  
  731. 3.6.7  Preamble
  732.  
  733.        The test steps needed to define the path from the starting stable state of the 
  734. test case up to the initial state from which the test body will start.
  735.  
  736. 3.6.8  Test body
  737.  
  738.        The set of test steps that are essential in order to achieve the test purpose 
  739. and assign verdicts to the possible outcomes.
  740.  
  741. 3.6.9  Postamble
  742.  
  743.        The test steps needed to define the paths from the end of the test body up to 
  744. the finishing stable state for the test case.
  745.  
  746. 3.6.10   Test step
  747.  
  748.        A named subdivision of a test case, constructed from test events and/or other 
  749. test steps, and used to modularize abstract test cases.
  750.  
  751. 3.6.11 Test event
  752.  
  753.        An indivisible unit of test specification at the level of abstraction of the 
  754. specification (e.g., sending or receiving a single PDU).
  755.  
  756. 3.6.12 Test suite
  757.  
  758.  
  759.  
  760.  
  761. (3184)
  762.  
  763.  
  764.  
  765.  
  766.  
  767.  
  768.  
  769.  
  770.                                - 12 -
  771.                             AP IX-43-E
  772.  
  773.  
  774.        A complete set of test cases, possibly combined into nested test groups, that is 
  775. necessary to perform conformance testing or basic interconnection testing for an IUT or 
  776. protocol within an IUT.
  777.  
  778. 3.6.13 Test case
  779.  
  780.        A generic, abstract or executable test case.
  781.  
  782. 3.6.14 Test group
  783.  
  784.        A named set of related test cases.
  785.  
  786. 3.6.15 Generic test suite
  787.  
  788.        A test suite composed of generic test cases, with the same coverage  as  the
  789. complete set of test purposes for the particular protocol, this being the set or  a
  790. superset of the test purposes of any particular abstract test suite  for  the  same
  791. protocol.
  792.  
  793. 3.6.16 Abstract test suite
  794.  
  795.        A test suite composed of abstract test cases.
  796.  
  797. 3.6.17 Executable test suite
  798.  
  799.        A test suite composed of executable test cases.
  800.  
  801. 3.6.18 Conformance test suite
  802.  
  803.        A test suite for conformance testing of one or more OSI* protocols.
  804.  
  805. Note - It should cover both capability testing and behaviour  testing.  It  may  be
  806. qualified by the adjectives: abstract, generic or executable, as appropriate. Unless 
  807. stated otherwise, an "abstract test suite" is meant.
  808.  
  809. 3.6.19 Basic interconnection test suite
  810.  
  811.        A test suite for basic interconnection testing of one or more OSI* protocols.
  812.  
  813. 3.6.20 Selected abstract test suite
  814.  
  815.        The subset of an abstract test suite selected using a specific PICS.
  816.  
  817. 3.6.21 Selected executable test suite
  818.  
  819.        The subset of an executable test suite selected using a  specific  PICS  and
  820. corresponding to a selected abstract test suite.
  821.  
  822. 3.6.22 Parameterized abstract test case
  823.  
  824.        An abstract test case in which all appropriate parameters have been supplied 
  825. with values in accordance with a specific PICS and PIXIT.
  826.  
  827. 3.6.23 Parameterized executable test case
  828.  
  829.  
  830.  
  831.  
  832. (3184)
  833.  
  834.  
  835.  
  836.  
  837.  
  838.                                - 13 -
  839.                             AP IX-43-E
  840.  
  841.  
  842.        An executable test case in which all appropriate parameters have been supplied 
  843. with values in accordance with a specific PICS and PIXIT.
  844.  
  845. 3.6.24 Parameterized abstract test suite
  846.  
  847.        A selected abstract test suite in  which  all  test  cases  have  been  made
  848. parameterized abstract test cases for the appropriate PICS and PIXIT.
  849.  
  850. 3.6.25 Parameterized executable test suite
  851.  
  852.         A selected executable test suite in which all test  cases  have  been  made
  853. parameterized executable test  cases  for  the  appropriate  PICS  and  PIXIT,  and
  854. corresponding to a parameterized abstract test suite.
  855.  
  856. 3.7    Terminology of results
  857.  
  858. 3.7.1  Repeatability (of results)
  859.  
  860.        Characteristic of a test case, such that repeated executions on the same IUT 
  861. lead to the same verdict, and by extension a characteristic of a test suite.
  862.  
  863. 3.7.2  Comparability (of results)
  864.  
  865.        Characteristic of conformance assessment processes, such that their execution on 
  866. the same IUT, in different test environments, leads to the same overall summary.
  867.  
  868. 3.7.3  Outcome
  869.  
  870.        A sequence of test events together with the associated input/output,  either
  871. identified by an abstract test case specifier, or observed during test execution.
  872.  
  873. 3.7.4  Foreseen outcome
  874.  
  875.        An outcome identified or categorized in the abstract test case specification.
  876.  
  877. 3.7.5  Unforeseen outcome
  878.  
  879.        An  outcome  not  identified  or  categorized  in  the  abstract  test  case
  880. specification.
  881.  
  882. 3.7.6  Verdict
  883.  
  884.        Statement of "pass", "fail" or "inconclusive" concerning conformance of an IUT 
  885. with respect to a test case that has been executed and which is  specified  in  the
  886. abstract test suite.
  887.  
  888. 3.7.7  System conformance test report (SCTR)
  889.  
  890.        A document written at the end of the conformance assessment process, giving the 
  891. overall summary of the conformance of the system to the set of protocols for  which
  892. conformance testing was carried out.
  893.  
  894. 3.7.8  Protocol conformance test report (PCTR)
  895.  
  896.        A document written at the end of the conformance assessment process, giving the 
  897.  
  898.  
  899.  
  900. (3184)
  901.  
  902.  
  903.  
  904.  
  905.  
  906.  
  907.  
  908.  
  909.                                - 14 -
  910.                             AP IX-43-E
  911.  
  912.  
  913. details of the testing  carried  out  for  a  particular  protocol,  including  the
  914. identification of the abstract test cases for which corresponding executable test cases 
  915. were run and for each test case the test purpose and verdict.
  916.  
  917. 3.7.9  Valid test event
  918.  
  919.        A test event which is allowed by the protocol  Recommendation*,  being  both
  920. syntactically correct and occurring or arriving in an allowed context in an observed 
  921. outcome.
  922.  
  923. 3.7.10 Syntactically invalid test event
  924.  
  925.        A test event which syntactically is not allowed by the protocol Recommendation*.
  926.  
  927. Note - The use of "invalid test event" is deprecated.
  928.  
  929. 3.7.11 Inopportune test event
  930.  
  931.        A test event which, although syntactically correct, occurs or arrives at a point 
  932. in an observed outcome when not allowed to do so by the protocol Recommendation*.
  933.  
  934. 3.7.12 "Pass" verdict
  935.  
  936.        A verdict given when the observed outcome satisfies the test purpose and  is
  937. valid with respect to the relevant Recommendation(s)* and with respect to the PICS.
  938.  
  939. 3.7.13 "Fail" verdict
  940.  
  941.        A verdict given when  the  observed  outcome  is  syntactically  invalid  or
  942. inopportune with respect to the relevant Recommendation(s)* or the PICS.
  943.  
  944. 3.7.14 "Inconclusive" verdict
  945.  
  946.        A verdict given when the observed outcome is valid with respect to the relevant 
  947. Recommendation(s)* but prevents the test purpose from being accomplished.
  948.  
  949. 3.7.15 Conformance log
  950.  
  951.        A record of sufficient information necessary to verify verdict assignments as a 
  952. result of conformance testing.
  953.  
  954. 3.8    Terminology of test methods
  955.  
  956. 3.8.1  Point of control and observation (PCO)
  957.  
  958.        A point at which control and observation is specified in a test case.
  959.  
  960. 3.8.2  Lower tester
  961.  
  962.        The abstraction of the means of providing, during test execution, control and 
  963. observation at the appropriate PCO either below the IUT or remote from the IUT,  as
  964. defined by the chosen abstract test method.
  965.  
  966. 3.8.3  Upper tester
  967.  
  968.  
  969.  
  970.  
  971. (3184)
  972.  
  973.  
  974.  
  975.  
  976.  
  977.                                - 15 -
  978.                             AP IX-43-E
  979.  
  980.  
  981.        The abstraction of the means of providing, during test execution, control and 
  982. observation of the upper service boundary of the IUT, plus the control and observation 
  983. of any relevant abstract local primitive.
  984.  
  985. 3.8.4  Abstract (N)-service-primitive ((N)-ASP)
  986.  
  987.        An implementation independent description of an interaction between a service- 
  988. user and a service-provider at an (N)-service boundary, as defined in an OSI* service 
  989. definition Recommendation*.
  990.  
  991. 3.8.5  Abstract local primitive (ALP)
  992.  
  993.        An abbreviation for a description of control and/or observation to be performed 
  994. by the upper tester, which cannot be described in terms of ASPs but which relates to 
  995. events or states defined within the protocol Recommendation(s)* relevant to the IUT.
  996.  
  997. Note - The PIXIT will indicate whether or not a particular ALP can be realized within 
  998. the SUT. The ability of the SUT to support particular ALPs as specified in the PIXIT 
  999. will be used as a criterion in the test selection process.
  1000.  
  1001. 3.8.6  Test coordination procedures
  1002.  
  1003.        The rules for cooperation between the lower and upper testers during testing.
  1004.  
  1005. 3.8.7  Test management protocol
  1006.  
  1007.        A protocol which is used as a realization of the test coordination procedures 
  1008. for a particular test suite.
  1009.  
  1010. 3.8.8  Local test methods
  1011.  
  1012.        Abstract test methods in which the PCOs are directly at the layer boundaries of 
  1013. the IUT.
  1014.  
  1015. 3.8.9  External test methods
  1016.  
  1017.        Abstract test methods in which the lower tester is separate from the SUT and 
  1018. communicates with it via an appropriate lower layer service-provider.
  1019.  
  1020. Note - The service-provider is immediately beneath the (lowest layer) protocol which is 
  1021. the focus of the testing, and may involve multiple OSI layers.
  1022.  
  1023. 3.8.10 Distributed test method
  1024.  
  1025.        An external test method in which there is a PCO at the layer boundary at the top 
  1026. of the IUT.
  1027.  
  1028. 3.8.11 Coordinated test method
  1029.  
  1030.        An external test method for which a standardized test management protocol is 
  1031. defined as the realization of the test coordination procedures, enabling the control 
  1032. and observation to be specified solely in terms of the lower tester activity, including 
  1033. the control and observation of test management PDUs.
  1034.  
  1035. 3.8.12 Remote test method
  1036.  
  1037.  
  1038.  
  1039. (3184)
  1040.  
  1041.  
  1042.  
  1043.  
  1044.  
  1045.  
  1046.  
  1047.  
  1048.                                - 16 -
  1049.                             AP IX-43-E
  1050.  
  1051.  
  1052.  
  1053.        An external method in which there is neither a  PCO  above  the  IUT  nor  a
  1054. standardized test management protocol;  some  requirements  for  test  coordination
  1055. procedures may be implied or informally expressed in the abstract test suite but no 
  1056. assumption is made regarding their feasibility or realization.
  1057.  
  1058. 3.8.13 Real tester
  1059.  
  1060.        The realization of the lower tester,  plus  either  the  definition  or  the
  1061. realization of the upper tester, plus  the  definition  of  the  test  coordination
  1062. procedures, as appropriate to a particular test method.
  1063.  
  1064. 3.8.14 Test realizer
  1065.  
  1066.        An organization which takes responsibility for providing, in a form independent 
  1067. of client and IUT, the means of testing IUTs in conformance with the abstract  test
  1068. suite.
  1069.  
  1070. 4.     Abbreviations
  1071.  
  1072.        For the purposes of this Recommendation the following abbreviations apply.
  1073.  
  1074.  
  1075.        Administration*: Administration or recognized  private  operating
  1076.        agency.
  1077.  
  1078.        ALP: abstract local primitive
  1079.  
  1080.        ASP: abstract service primitive
  1081.  
  1082.        DTE: data terminal equipment
  1083.  
  1084.        IUT: implementation under test
  1085.  
  1086.        OSI: open systems interconnection
  1087.  
  1088.        OSI*: OSI or related CCITT X-Series or T-Series Recommendations
  1089.  
  1090.        PCO: point of control and observation
  1091.  
  1092.        PCTR: protocol conformance test report
  1093.  
  1094.        PDU: protocol data unit
  1095.  
  1096.        PICS:protocol implementation conformance statement
  1097.  
  1098.        PIXIT: protocol implementation extra information for testing
  1099.  
  1100.        BBSAP: service access point
  1101.  
  1102.        SCTR:system conformance test report
  1103.  
  1104.        Recommendation*:  Standard or Recommendation
  1105.  
  1106.        SUT: system under test
  1107.  
  1108.  
  1109.  
  1110. (3184)
  1111.  
  1112.  
  1113.  
  1114.  
  1115.  
  1116.                                - 17 -
  1117.                             AP IX-43-E
  1118.  
  1119.  
  1120.  
  1121.        TM-PDU: test management PDU
  1122.  
  1123. Section 2: Overview
  1124.  
  1125. 5.     The meaning of conformance in OSI*
  1126.  
  1127. 5.1    Introduction
  1128.  
  1129.        In the context of OSI*, a real system is said to exhibit conformance if it 
  1130. complies with the  requirements  of  applicable  OSI*  Recommendations*  in  its
  1131. communication with other real systems.
  1132.  
  1133.        Applicable OSI* Recommendations* include protocol  Recommendations*,  and
  1134. transfer syntax Recommendations* inasmuch as they are implemented in conjunction 
  1135. with protocols.
  1136.  
  1137.        OSI* Recommendations* form a set of interrelated  Recommendations*  which
  1138. together define behaviour of open systems in their communication. Conformance of a 
  1139. real system will, therefore, be expressed at two  levels,  conformance  to  each
  1140. individual Recommendation*, and conformance to the set.
  1141.  
  1142. Note - If the implementation is based on a predefined set of Recommendations*, often 
  1143. referred to as a functional standard or profile, the concept of conformance can be 
  1144. extended to specific requirements expressed in the functional standard or profile, 
  1145. as long as they do not conflict with the requirements of the base Recommendations*.
  1146.  
  1147. 5.2    Conformance requirements
  1148.  
  1149. 5.2.1  The conformance requirements in a Recommendation* can be:
  1150.  
  1151.        a)   mandatory requirements: these are to be observed in all cases;
  1152.  
  1153.        b)   conditional requirements: these are to be observed if the conditions 
  1154.             set out in the Recommendation* apply;
  1155.  
  1156.        c)   options: these can be selected to suit the implementation,  provided
  1157.             that any requirements applicable to the option  are  observed.  More
  1158.             information on options is provided in Annex A.
  1159.  
  1160.        For example,  CCITT  essential  facilities  are  mandatory  requirements;
  1161. additional facilities can be either conditional or optional requirements.
  1162.  
  1163. Note - The CCITT terms "essential facilities" and "additional facilities" need to be 
  1164. considered in the context of the scope of the CCITT Recommendation concerned; in 
  1165. many cases, essential facilities are mandatory for networks but not for DTEs.
  1166.  
  1167. 5.2.2  Furthermore, conformance requirements in a Recommendation* can be stated
  1168.  
  1169.        a)   positively: they state what shall be done;
  1170.  
  1171.        b)   negatively (prohibitions): they state what shall not be done.
  1172.  
  1173. 5.2.3  Finally, conformance requirements fall into two groups:
  1174.  
  1175.  
  1176.  
  1177.  
  1178. (3184)
  1179.  
  1180.  
  1181.  
  1182.  
  1183.  
  1184.  
  1185.  
  1186.  
  1187.                                - 18 -
  1188.                             AP IX-43-E
  1189.  
  1190.  
  1191.        a)   static conformance requirements;
  1192.  
  1193.        b)   dynamic conformance requirements.
  1194.  
  1195.        These are discussed in 5.3. and 5.5, respectively.
  1196.  
  1197. 5.3    Static conformance requirements
  1198.  
  1199.        Static conformance requirements are those that define the allowed minimum 
  1200. capabilities of an implementation, in order to  facilitate  interworking.  These
  1201. requirements may be at a broad level, such as the grouping of functional units and 
  1202. options into protocol classes, or at a detailed level, such as a range of values 
  1203. that have to be supported for specific parameters of timers.
  1204.  
  1205.        Static conformance requirements and options in OSI* Recommendations* can be 
  1206. of two varieties:
  1207.  
  1208.        a)   those which  determine  the  capabilities  to  be  included  in  the
  1209.             implementation of the particular protocol;
  1210.  
  1211.        b)   those which determine multi-layer dependencies, e.g., those which place 
  1212.             constraints on the capabilities of the underlying layers of the system 
  1213.             in which the protocol implementation resides. These are likely to be 
  1214.             found in upper layer Recommendations*.
  1215.  
  1216.        All capabilities not explicitly stated as static conformance requirements 
  1217. are to be regarded as optional.
  1218.  
  1219. 5.4    Protocol implementation conformance statement (PICS)
  1220.  
  1221.        To evaluate the conformance of a particular implementation, it is necessary 
  1222. to have a statement of the capabilities and options which have been implemented, and 
  1223. any features which have been omitted, so that the implementation can be tested for 
  1224. conformance against relevant requirements, and against those requirements only. Such 
  1225. a statement is called a Protocol Implementation Conformance Statement (PICS).
  1226.  
  1227.        In a PICS there should be a distinction between the following categories of 
  1228. information which it may contain:
  1229.  
  1230.        a)   information related to the mandatory, optional and conditional static 
  1231.             conformance requirements of the protocol itself;
  1232.  
  1233.        b)   information related to the mandatory, optional and conditional static 
  1234.             conformance requirements for multi-layer dependencies.
  1235.  
  1236.        If a set of interrelated OSI* protocol Recommendations* has been implemented 
  1237. in a system, a PICS is needed for each protocol. A System Conformance Statement will 
  1238. also be necessary, summarizing all protocols in the system for each of  which  a
  1239. distinct PICS is provided.
  1240.  
  1241. 5.5    Dynamic conformance requirements
  1242.  
  1243.        Dynamic conformance requirements are all those requirements (and options) 
  1244. which determine what observable behaviour is  permitted  by  the  relevant  OSI*
  1245. Recommendation(s)* in instances of communication. They form the bulk of each OSI* 
  1246.  
  1247.  
  1248.  
  1249. (3184)
  1250.  
  1251.  
  1252.  
  1253.  
  1254.  
  1255.                                - 19 -
  1256.                             AP IX-43-E
  1257.  
  1258.  
  1259. protocol Recommendation*. They define the set  of  allowable  behaviours  of  an
  1260. implementation or real system. This set defines the maximum  capability  that  a
  1261. conforming implementation or real system can have within the terms of  the  OSI*
  1262. protocol Recommendation*.
  1263.  
  1264.        A system exhibits dynamic conformance in an instance of communication if its 
  1265. behaviour is a member of the set of all behaviours permitted by the relevant OSI* 
  1266. protocol Recommendation(s)* in a way which is consistent with the PICS.
  1267.  
  1268. 5.6    A conforming system
  1269.  
  1270.        A conforming system or implementation is one which is shown to satisfy both 
  1271. static and dynamic conformance requirements, consistent with the capabilities stated 
  1272. in the PICS, for each protocol declared in the System Conformance Statement.
  1273.  
  1274. 5.7    Interworking and conformance
  1275.  
  1276. 5.7.1  The primary purpose of conformance testing is to increase the probability 
  1277. that different implementations are able to interwork.
  1278.  
  1279.        Successful interworking of two or more real open systems is more likely to 
  1280. be achieved if they all conform to the same subset of an OSI* Recommendation*, or to 
  1281. the same selection of OSI* Recommendations*, than if they do not.
  1282.  
  1283.        In order to prepare two or more systems to interwork successfully, it  is
  1284. recommended that a comparison be made of the System Conformance Statements and PICSs 
  1285. of these systems.
  1286.  
  1287.        If there is more than one version  of  a  relevant  OSI*  Recommendation*
  1288. indicated in the PICSs, the differences between the versions need to be identified 
  1289. and their implications for consideration, including their use in combination with 
  1290. other Recommendations*.
  1291.  
  1292. 5.7.2  While conformance is a necessary condition,  it  is  not  on  its  own  a
  1293. sufficient  condition  to  guarantee  interworking  capability.  Even   if   two
  1294. implementations conform to the same OSI* protocol Recommendation*, they may fail to 
  1295. interwork because of factors outside the scope of that Recommendation.
  1296.  
  1297.        Trial interworking is recommended in order to detect these factors. Further 
  1298. information to assist interworking between two systems can be obtained by extending 
  1299. the PICS comparison to other relevant information, including test reports and PIXIT 
  1300. (see clause 6.2). The comparison can focus on:
  1301.  
  1302.        a)   additional mechanisms claimed to work around  known  ambiguities  or
  1303.             deficiencies not yet corrected in the Recommendations* or in peer real 
  1304.             systems, e.g., solution of multi-layer problems;
  1305.  
  1306.        b)   selection of free options which are not taken into  account  in  the
  1307.             static conformance requirements of the Recommendations*;
  1308.  
  1309.        c)   the existence of timers not specified in the Recommendation* and their 
  1310.             associated values.
  1311.  
  1312. Note - The comparison can be made between two individual systems, between two or 
  1313. more types of product, or, for the PICS comparison only,  between  two  or  more
  1314.  
  1315.  
  1316.  
  1317. (3184)
  1318.  
  1319.  
  1320.  
  1321.  
  1322.  
  1323.  
  1324.  
  1325.  
  1326.                                - 20 -
  1327.                             AP IX-43-E
  1328.  
  1329.  
  1330. specifications for procurement, permissions to connect, etc.
  1331.  
  1332. 6.     Conformance and testing
  1333.  
  1334. 6.1    Objectives of conformance testing
  1335.  
  1336. 6.1.1  Introduction
  1337.  
  1338.        Conformance testing as discussed in this  Recommendation  is  focused  on
  1339. testing for conformance to OSI* protocol Recommendations*. However, it also applies 
  1340. to testing for conformance to OSI* transfer syntax Recommendations*, to the extent 
  1341. that this can be carried out by testing the transfer syntax in combination with an 
  1342. OSI* protocol.
  1343.  
  1344.        In principle, the objective of conformance testing is to establish whether 
  1345. the implementation being tested conforms to the specification  in  the  relevant
  1346. Recommendation*. Practical limitations make it impossible to be exhaustive,  and
  1347. economic considerations may restrict testing still further.
  1348.  
  1349.        Therefore, this  Recommendation  distinguishes  four  types  of  testing,
  1350. according to the extent to which they provide an indication of conformance:
  1351.  
  1352.        a)   basic interconnection tests, which provide prima facie evidence that an 
  1353.             IUT conforms;
  1354.  
  1355.        b)   capability tests, which check that the observable capabilities of the 
  1356.             IUT are in accordance with the static conformance requirements and the 
  1357.             capabilities claimed in the PICS;
  1358.  
  1359.        c)   behaviour tests, which endeavour to  provide  testing  which  is  as
  1360.             comprehensive as possible over the full range of dynamic conformance 
  1361.             requirements specified by the Recommendation*, within the capabilities 
  1362.             of the IUT;
  1363.  
  1364.        d)   conformance resolution tests, which probe in depth the conformance of 
  1365.             an IUT to particular requirements, to provide a definite yes/no answer 
  1366.             and diagnostic information in relation to specific conformance issues, 
  1367.             such tests are not standardized.
  1368.  
  1369. 6.1.2  Basic interconnection tests
  1370.  
  1371. 6.1.2.1Basic interconnection tests provide limited testing of an IUT in relation to 
  1372. the main features in a Recommendation*, to establish that  there  is  sufficient
  1373. conformance for interconnection to be possible, without trying to perform thorough 
  1374. testing.
  1375.  
  1376. 6.1.2.2Basic interconnection tests are appropriate:
  1377.  
  1378.        a)   for detecting severe cases of non-conformance;
  1379.  
  1380.        b)   as a preliminary filter before undertaking more costly tests;
  1381.  
  1382.        c)   to give a prima facie indication that an  implementation  which  has
  1383.             passed full conformance tests in one environment still conforms in a 
  1384.             new environment (e.g., before testing an (N)-implementation, to check 
  1385.  
  1386.  
  1387.  
  1388. (3184)
  1389.  
  1390.  
  1391.  
  1392.  
  1393.  
  1394.                                - 21 -
  1395.                             AP IX-43-E
  1396.  
  1397.  
  1398. that a tested (N-1)-implementation has not undergone any severe change 
  1399.             due to being linked to the (N)-implementation);
  1400.  
  1401.        d)   for use by  users  of  implementations,  to  determine  whether  the
  1402.             implementations appear to be usable  for  communication  with  other
  1403.             conforming implementations, e.g., as a preliminary to data interchange.
  1404.  
  1405. 6.1.2.3Basic interconnection tests are inappropriate:
  1406.  
  1407.        a)   as a  basis  for  claims  of  conformance  by  the  supplier  of  an
  1408.             implementation;
  1409.  
  1410.        b)   as a means of arbitration to  determine  causes  for  communications
  1411.             failure.
  1412.  
  1413. 6.1.2.4Basic interconnection tests should be standardized as either a very small 
  1414. test suite or a subset of a conformance test  suite  (including  capability  and
  1415. behaviour tests). They can be used on their own or together with a conformance test 
  1416. suite. The existence and execution of basic interconnection tests are optional.
  1417.  
  1418. 6.1.3  Capability tests
  1419.  
  1420. 6.1.3.1Capability tests provide limited testing of each of the static conformance 
  1421. requirements in a Recommendation*, to ascertain what capabilities of the IUT can be 
  1422. observed and to check that those observable capabilities are valid with respect to 
  1423. the static conformance requirements and the PICS.
  1424.  
  1425. 6.1.3.2Capability tests are appropriate:
  1426.  
  1427.        a)   to check as far as possible the consistency of the PICS with the IUT;
  1428.  
  1429.        b)   as a preliminary filter before undertaking more in-depth and  costly
  1430.             testing;
  1431.  
  1432.        c)   to check that the capabilities of the IUT are  consistent  with  the
  1433.             static conformance requirements;
  1434.  
  1435.        d)   to enable efficient selection of behaviour tests to be  made  for  a
  1436.             particular IUT;
  1437.  
  1438.        e)   when taken together with behaviour tests, as a basis for  claims  of
  1439.             conformance.
  1440.  
  1441. 6.1.3.3Capability tests are inappropriate:
  1442.  
  1443.        a)   on their own, as a basis for claims of conformance by the supplier of 
  1444. an implementation;
  1445.  
  1446.        b)   for testing in detail the behaviour associated with each  capability
  1447.             which has been implemented or not implemented;
  1448.  
  1449.        c)   for resolution of problems experienced during live usage or where other 
  1450.             tests indicate possible non-conformance even though  the  capability
  1451.             tests have been satisfied.
  1452.  
  1453.  
  1454.  
  1455.  
  1456. (3184)
  1457.  
  1458.  
  1459.  
  1460.  
  1461.  
  1462.  
  1463.  
  1464.  
  1465.                                - 22 -
  1466.                             AP IX-43-E
  1467.  
  1468.  
  1469. 6.1.3.4Capability tests are standardized within a conformance test suite. They can either 
  1470. be separated into their own test group(s) or merged with the behaviour tests.
  1471.  
  1472. 6.1.4  Behaviour tests
  1473.  
  1474. 6.1.4.1Behaviour tests test an implementation as thoroughly as is practical, over the 
  1475. full range of dynamic conformance requirements specified in a Recommendation*. Since the 
  1476. number of possible combinations of events and timing of events is infinite, such testing 
  1477. cannot be exhaustive. There is a further limitation, namely that these tests are designed 
  1478. to be run collectively in a single test environment, so that  any  faults  which  are
  1479. difficult or impossible to detect in that environment are likely to be missed. Therefore, 
  1480. it is possible that a non-conforming implementation passes the conformance test suite; 
  1481. one aim of the test suite design is to minimize the number of times that this occurs.
  1482.  
  1483. 6.1.4.2Behaviour tests are appropriate, when taken together with capability tests, as a 
  1484. basis for the conformance assessment process.
  1485.  
  1486. 6.1.4.3Behaviour tests are inappropriate for resolution of problems experienced during 
  1487. live usage or where other tests indicate possible non- conformance  even  though  the
  1488. behaviour tests have been satisfied.
  1489.  
  1490. 6.1.4.4Behaviour tests are standardized as the bulk of a conformance test suite.
  1491.  
  1492. Note - Behaviour tests include tests for valid behaviour by the IUT in response to valid, 
  1493. inopportune and syntactically invalid protocol behaviour by  the  real  tester.  This
  1494. includes testing the rejection by the IUT of attempts to use features  (capabilities)
  1495. which are stated in the PICS as being not implemented. Thus, capability tests do not need 
  1496. to include tests for capabilities omitted from the PICS.
  1497.  
  1498. 6.1.5  Conformance resolution tests
  1499.  
  1500. 6.1.5.1Conformance resolution tests provide diagnostic answers, as near to definitive as 
  1501. possible, to  the  resolution  of  whether  an  implementation  satisfies  particular
  1502. requirements. Because of the problems of exhaustiveness noted in  6.1.4.1, the definite 
  1503. answers are gained at the expense of confining tests to a narrow field.
  1504.  
  1505. 6.1.5.2The test architecture and test method will normally be chosen specifically for the 
  1506. requirements to be tested, and need not be ones that are generally useful  for  other
  1507. requirements. They may even be ones that  are  regarded  as  being  unacceptable  for
  1508. (standardized) abstract conformance test suites, e.g., involving implementation specific 
  1509. methods using, say, the diagnostic and debugging facilities of the specific operating 
  1510. system.
  1511.  
  1512. 6.1.5.3The distinction between behaviour tests and conformance resolution tests may be 
  1513. illustrated by the case of an event such as a Reset. The behaviour tests may include only 
  1514. a representative selection of conditions under which a Reset might occur, and may fail to 
  1515. detect incorrect behaviour in other 
  1516. circumstances. The conformance resolution tests would be confined to conditions under 
  1517. which incorrect behaviour was already suspected to occur, and would confirm whether or 
  1518. not the suspicions were correct.
  1519.  
  1520. 6.1.5.4Conformance resolution tests are appropriate:
  1521.  
  1522.        a)   for providing a yes/no answer  in  a  strictly  confined  and  previously
  1523.             identified situation (e.g., during implementation development,  to  check
  1524.  
  1525.  
  1526.  
  1527. (3184)
  1528.  
  1529.  
  1530.  
  1531.  
  1532.  
  1533.                                - 23 -
  1534.                             AP IX-43-E
  1535.  
  1536.  
  1537. whether a particular feature has been correctly  implemented,  or  during
  1538.             operational use, to investigate the cause of problems);
  1539.  
  1540.        b)   as a means for identifying and offering resolutions for deficiencies in a 
  1541.             current conformance test suite.
  1542.  
  1543. 6.1.5.5Conformance resolution tests are inappropriate as a basis for judging whether or 
  1544. not an implementation conforms overall.
  1545.  
  1546. 6.1.5.6Conformance resolution tests are not standardized.
  1547.  
  1548. Note on 6.1 - As a by-product of conformance testing, errors and deficiencies in protocol 
  1549. Recommendations* may be identified.
  1550.  
  1551. 6.2    Protocol implementation extra information for testing (PIXIT)
  1552.  
  1553.        In order to test a protocol implementation, the test laboratory  will  require
  1554. information relating to the IUT and its testing environment in addition to that provided 
  1555. by the PICS. This "Protocol Implementation eXtra Information for Testing" (PIXIT) will be 
  1556. provided by the client submitting the implementation for  testing,  as  a  result  of
  1557. consultation with the test laboratory.
  1558.  
  1559.        The PIXIT may contain the following information:
  1560.  
  1561.        a)   information needed by the test laboratory in order to be able to run  the
  1562.             appropriate test suite on the specific system (e.g., information related to 
  1563.             the test method to be used to run the test cases, addressing information);
  1564.  
  1565.        b)   information already mentioned in the PICS and which needs to be made precise 
  1566.             (e.g., a timer value range which is declared as a parameter in  the  PICS
  1567.             should be specified in the PIXIT);
  1568.  
  1569.        c)   information to help determine which capabilities stated in the PICS as being 
  1570.             supported are testable and which are untestable;
  1571.  
  1572.        d)   other administrative matters (e.g., the IUT identifier, reference to  the
  1573.             related PICS).
  1574.  
  1575.        The PIXIT should not conflict with the appropriate PICS.
  1576.  
  1577.        The abstract test suite specifier, test realizer and test laboratory will  all
  1578. contribute to the development of the PIXIT proforma.
  1579.  
  1580. 6.3    Conformance assessment process outline
  1581.  
  1582. 6.3.1  The main feature of the conformance assessment process is a  configuration  of
  1583. equipment allowing exchanges of information between the IUT and a real tester. These are 
  1584. controlled and observed by the real tester.
  1585.  
  1586. 6.3.2  In conceptual outline, conformance testing should include several steps, involving 
  1587. both static conformance reviews and live testing phases, culminating in the production of 
  1588. a test report which is as thorough as is practical.
  1589.  
  1590. 6.3.3  These steps are:
  1591.  
  1592.  
  1593.  
  1594.  
  1595. (3184)
  1596.  
  1597.  
  1598.  
  1599.  
  1600.  
  1601.  
  1602.  
  1603.  
  1604.                                - 24 -
  1605.                             AP IX-43-E
  1606.  
  1607.  
  1608.        a)   analysis of the PICS;
  1609.  
  1610.        b)   test selection and parameterization;
  1611.  
  1612.        c)   basic interconnection testing (optional);
  1613.  
  1614.        d)   capability testing;
  1615.  
  1616.        e)   behaviour testing;
  1617.  
  1618.        f)   review and analysis of test results;
  1619.  
  1620.        g)   synthesis, conclusions and conformance test report production.
  1621.  
  1622.        These are illustrated in Figure 1.
  1623.  
  1624.        Prior to the execution of any of the tests, the IUT's PICS and PIXIT are input to 
  1625. the test case selection and parameterization process.
  1626.  
  1627. 6.4    Analysis of results
  1628.  
  1629. 6.4.1  General
  1630.  
  1631. 6.4.1.1Outcomes and verdicts
  1632.  
  1633.        The observed outcome (of the test execution) is the  series  of  events  which
  1634. occurred during execution of a test case; it includes all input to and output from the 
  1635. IUT at the points of control and observation.
  1636.  
  1637.        The foreseen outcomes are identified and defined by  the  abstract  test  case
  1638. specification taken in conjunction with the protocol Recommendation*. For each test case, 
  1639. there may be one or more foreseen outcome(s). Foreseen outcomes are defined primarily in 
  1640. abstract terms.
  1641.  
  1642.        A verdict is a statement of pass, fail or inconclusive to be associated with every 
  1643. foreseen outcome in the abstract test suite specification.
  1644.  
  1645.        The analysis of results is performed by comparing the observed  outcomes  with
  1646. foreseen outcomes.
  1647.  
  1648.        The verdict assigned to an observed outcome is that associated with the matching 
  1649. foreseen outcome. If the observed outcome is unforeseen then the abstract test  suite
  1650. specification will state what default verdict shall be assigned.
  1651.  
  1652.        The means by which the comparison of the observed outcomes with  the  foreseen
  1653. outcomes is made is outside the scope of this Recommendation.
  1654.  
  1655. Note - Amongst the possibilities are:
  1656.  
  1657.        a)   manual or automated comparison (or a mixture);
  1658.  
  1659.        b)   comparison at or after execution time;
  1660.  
  1661.        c)   translating the observed outcomes into abstract terms for comparison with 
  1662.             the foreseen outcomes or translating the foreseen outcomes into the terms 
  1663.  
  1664.  
  1665.  
  1666. (3184)
  1667.  
  1668.  
  1669.  
  1670.  
  1671.  
  1672.                                - 25 -
  1673.                             AP IX-43-E
  1674.  
  1675.  
  1676. used to record the observed outcomes.
  1677.  
  1678.        The verdict will be pass, fail or inconclusive:
  1679.  
  1680.        a)   pass means that the observed outcome satisfies the test purpose and is valid 
  1681.             with respect to the relevant Recommendation(s)* and with respect to the PICS;
  1682.  
  1683.        b)   fail means that the observed outcome is syntactically invalid or inopportune 
  1684.             with respect to the relevant Recommendation(s)* or the PICS;
  1685.  
  1686.        c)   inconclusive means that the observed outcome is valid with respect to the 
  1687.             relevant Recommendation(s)* but prevents  the  test  purpose  from  being
  1688.             accomplished.
  1689.  
  1690.  
  1691.  
  1692.  
  1693.  
  1694.  
  1695.  
  1696.        The verdict assigned to a particular outcome will depend on the test purpose and 
  1697. the validity of the observed protocol behaviour.
  1698.  
  1699.        The verdicts made in respect of individual test cases will be synthesized into an 
  1700. overall summary for the IUT based on the test cases executed.
  1701.  
  1702. 6.4.1.2Conformance test reports
  1703.  
  1704.        The results of conformance testing will be documented in a set of conformance test 
  1705. reports. These reports will be of two types: a System Conformance Test Report (SCTR), and 
  1706. a Protocol Conformance Test Report (PCTR).
  1707.  
  1708.        The SCTR, which will always be provided,  gives  an  overall  summary  of  the
  1709. conformance status of the SUT, with respect to its single or multi-layer IUT. A standard 
  1710. proforma for the SCTR is for further study.
  1711.  
  1712.        The PCTR, one of which will be issued for each protocol  tested  in  the  SUT,
  1713. documents all of the results of the test cases giving references to the conformance logs 
  1714. which contain the observed outcomes. The PCTR also gives reference to  all  necessary
  1715. documents relating to the conduct of the  conformance  assessment  process  for  that
  1716. protocol.
  1717.  
  1718.        A standard proforma for the PCTR is for further study. The ordered list of test 
  1719. cases to be used in the  PCTR  will  be  specified  in  the  conformance  test  suite
  1720. Recommendation*.
  1721.  
  1722. 6.4.2  Repeatability of results
  1723.  
  1724.        In order to achieve the objective of credible conformance testing, it is clear 
  1725. that the result of executing a test case on an IUT should be the same whenever it  is
  1726. performed. Statistically, it may not be possible to perform a complete conformance test 
  1727. suite and observe outcomes which are completely identical to those obtained on another 
  1728. occasion: unforeseen events do occur, and this is a feature of the environments involved. 
  1729. Nevertheless, at the test case level, it is very important that every effort is made by 
  1730. the test specifiers and test laboratories to minimize the possibility that a test case 
  1731.  
  1732.  
  1733.  
  1734. (3184)
  1735.  
  1736.  
  1737.  
  1738.  
  1739.  
  1740.  
  1741.  
  1742.  
  1743.                                - 26 -
  1744.                             AP IX-43-E
  1745.  
  1746.  
  1747. produces different outcomes on different occasions.
  1748.  
  1749. 6.4.3  Comparability of results
  1750.  
  1751.        In order to achieve the ultimate objectives of conformance testing, the overall 
  1752. summary concerning conformance of an IUT has to be independent of the test environment in 
  1753. which the testing takes place. That is to say, the  standardization  of  all  of  the
  1754. procedures concerned with conformance testing should result in a  comparable  overall
  1755. summary being accorded to the IUT, whether the testing is done by the supplier, a user, 
  1756. or by any third party test house. There are a large number of factors to be studied to 
  1757. achieve this, of which some of the more important are:
  1758.  
  1759.        a)   careful design of the abstract test case specification to give flexibility 
  1760.             where appropriate, but show which requirements have to be met; (which is the 
  1761.             subject of this Recommendation);
  1762.  
  1763.        b)   careful specification of the real tester which should be used to run  the
  1764.             test suite;  again  this  specification  should  give  flexibility  where
  1765.             appropriate, but show which requirements have to be met, including all test 
  1766.             coordination procedures (if any);
  1767.  
  1768.  
  1769.  
  1770.  
  1771.  
  1772.  
  1773.  
  1774.  
  1775.  
  1776.  
  1777.  
  1778.  
  1779.  
  1780.  
  1781.  
  1782.  
  1783.  
  1784.  
  1785.  
  1786.  
  1787.  
  1788.  
  1789.  
  1790.  
  1791.  
  1792.  
  1793.  
  1794.  
  1795.  
  1796.  
  1797.  
  1798.  
  1799.  
  1800.  
  1801.  
  1802.  
  1803.  
  1804.  
  1805. (3184)
  1806.  
  1807.  
  1808.  
  1809.  
  1810.  
  1811.                                - 27 -
  1812.                             AP IX-43-E
  1813.  
  1814.  
  1815.        c)   careful specification of the procedure to be followed in determining how the 
  1816.             contents of the PICS are to be used in the analysis of outcomes  of  test
  1817.             cases; there should be no room for "optimistic" interpretation;
  1818.  
  1819.        d)   careful specification of the procedures to be followed by test laboratories 
  1820.             as regards the repetition of a test case before making a final verdict for 
  1821.             that test purpose;
  1822.  
  1823.        e)   a proforma for a conformance test report;
  1824.  
  1825.        f)   careful specification of the procedures necessary  when  synthesizing  an
  1826.             overall summary.
  1827.  
  1828. 6.4.4  Auditability of results
  1829.  
  1830.        For legal reasons, as well as others, it may be necessary to review the observed 
  1831. outcomes from the execution of a conformance test suite in order to make sure that all 
  1832. procedures have been correctly followed. Whether or not analysis has been carried out in 
  1833. a manual or automatic mode, it is essential that all inputs, outputs, and other  test
  1834. events are careful logged, and the analysis of the results recorded. In some cases this 
  1835. may be the responsibility of the test realizer, who may elect  to  include  the  test
  1836. criteria in the conformance log, as well as all outcomes. In others, it  may  be  the
  1837. responsibility of the test laboratory, which might be required to follow all standard 
  1838. procedures concerning the recording of results.
  1839.  
  1840. Note - As far as auditability is concerned, some automatic procedures would be preferred, 
  1841. but in the event it should be appreciated that from a legal standpoint such automatic 
  1842. procedures would have to be accredited themselves, if they are to be credible.
  1843.  
  1844.  
  1845.  
  1846.  
  1847.  
  1848.  
  1849.  
  1850.  
  1851.  
  1852.  
  1853.  
  1854.  
  1855.  
  1856.  
  1857.  
  1858.  
  1859.  
  1860.  
  1861.  
  1862.  
  1863.  
  1864.  
  1865.  
  1866.  
  1867.  
  1868.  
  1869.  
  1870.  
  1871.  
  1872.  
  1873. (3184)
  1874.  
  1875.  
  1876.  
  1877.  
  1878.  
  1879.